查看原文
其他

基于人脑连接组的人工神经网络,会是更好的AI吗?

The following article is from ScienceAI Author ScienceAI


导语


人类的大脑是一个复杂的网络,其中数百个脑区通过数千条轴突相互连接。网络的连接使其组件共同转换代表内部状态和外部刺激的信号。它不同于传统的冯.诺依曼计算机,更重要的是它具有「认知」、「记忆」、「意识」和「感情」等高级脑功能。那么,大脑的组织如何赋予计算能力?

凯霞 | 作者

ScienceAI | 来源



最新研究表明,基于人脑连通性的人工智能网络可以高效地执行认知任务

近日,来自加拿大麦吉尔大学蒙特利尔神经学研究所(Montréal Neurological Institute, McGill University) 和魁北克人工智能研究所(Quebec Artificial Intelligence Institute)的一组研究人员重建了大脑连接模式,并将其应用于人工神经网络 (ANN)。训练 ANN 执行认知记忆任务,并观察它如何完成任务。这项工作为发现大脑的网络组织如何优化认知能力开辟了新的机会。

该研究以「Learning function from structure in neuromorphic networks」为题,于 8 月 9 日 发布于《Nature Machine Intelligence》杂志上。





1. 大脑与人工神经网络




大脑的组织如何赋予计算能力?有两种方法:(1)将结构连通性与神经动力学和功能连通性的新兴模式联系起来;(2)将结构连通性与行为的个体差异联系起来。

虽然这两种范式都告诉我们网络组织的功能后果,但它们并没有明确考虑网络组织如何支持信息处理。

概念化结构函数关系的另一种方法是直接将函数视为计算属性。现代人工智能算法通过这样做提供了连接结构和功能的新方法。

ANN 是一个由多个输入和输出单元组成的计算系统,很像生物大脑。

理解人工循环神经网络如何从连续的外部刺激流中提取信息的一个突出范例是储层计算。储层框架的一个重要好处是可以将任意动态叠加在网络上,提供了一种工具来研究网络组织和动态如何共同支持学习和功能专业化。





2. 大脑连接组学+ANN




研究人员结合连接组学(connectomics)和储层计算,研究人脑网络中网络组织、动力学和计算特性之间的联系。首先,构建神经形态人工神经网络。然后,训练这些连接组信息库来执行记忆容量(memory capacity) 任务。

图示1:测量生物神经网络的记忆容量。(来源:论文)

通过将大脑连接组学整合到 ANN 架构的构建中,研究人员希望了解大脑的连接如何支持特定的认知技能,并为人工网络推导出新的设计原则。

研究人员使用经验派生的人脑连接模式来限制储层内的连接。对扩散谱磁共振成像 (MRI)数据(n=66 名参与者)应用确定性流线束成像来重建个体高分辨率人类连接组(1,015 节点;1,000 个皮质区域和 15 个皮质下区域)。生成保留个体参与者网络拓扑特征的群体共识网络,以减少误报和漏报的影响。

MRI 数据来源:https://doi.org/10.5281/zenodo.2872624

使用储层框架来量化单个大脑区域在记忆容量任务中编码时间信息的能力(记忆任务)。使用内在网络选择读出节点。

论文通讯作者 Bratislav Misic 表示:「这是一种独特的方法,体现在两个方面。之前关于大脑连通性(也称为连接组学)的工作侧重于描述大脑组织,而没有研究它实际如何执行计算和功能。其次,传统的 ANN 具有任意结构,不能反映真实大脑网络的组织方式。




3. 神经形态神经网络更灵活、

更高效的执行认知记忆任务




为了评估记忆容量取决于底层网络拓扑的程度,参数化地调整网络的动态状态,驱动网络在稳定、临界和混沌动态之间转换,根据四个空模型评估经验派生的连接组的记忆能力,并表明大脑的基本拓扑和模块化结构在关键动力学的背景下增强了记忆能力。

研究发现经验大脑网络在临界点的性能明显优于重连网络,在其他动态状态(稳定和混乱)下,连接组通常具有较低的容量。这些结果表明,当动力学至关重要或处于混沌边缘时,连接组拓扑最适合作为储层库。

图示2:人类连接组的记忆容量。(来源:论文)

与其他基准架构相比,具有人脑连接性的人工神经网络(称为神经形态神经网络)能够更灵活、更高效地执行认知记忆任务。神经形态神经网络能够使用相同的底层架构来支持跨多个上下文的广泛学习能力。




4. 网络拓扑、动态和记忆容量之间的相互作用




最后,研究人员系统地研究了记忆容量如何取决于特定网络属性和动态之间的相互作用。

将记忆容量与跨越三个动态机制的连接组图的多个(局部和全局级别)属性相关联。所有图形属性都是使用加权结构连接网络计算。

图示3:网络拓扑对记忆容量的贡献是动态的函数。其中, a :记忆容量和局部图属性之间的相关性分布;b:记忆容量和全局图属性之间的相关性。(来源:论文)


得出三个关键结果:
  1. 图属性和记忆容量之间有中度到高度相关性,这表明网络结构会影响性能。
  2. 结构不仅仅驱动动态,从而驱动性能。相反,结构和动力学相互作用以驱动性能。
  3. 在临界状态下,记忆容量超越了拓扑特征,变得更加依赖于全局网络动态。

该项目结合了两个充满活力和快节奏的科学学科」该论文的资深作者 Bratislav Misic 说。「神经科学和人工智能有着共同的根源,但最近又有了分歧。使用人工网络将帮助我们了解大脑结构如何支持大脑功能。反过来,使用经验数据制作神经网络将揭示构建更好人工智能的设计原则。因此,两者将有助于相互了解,并丰富我们对大脑的理解。」

论文链接:
https://www.nature.com/articles/s42256-021-00376-1

参考内容:
https://www.eurekalert.org/news-releases/924650
https://techxplore.com/news/2021-08-artificial-neural-networks-real-brains.html


复杂科学最新论文


集智斑图顶刊论文速递栏目上线以来,持续收录来自Nature、Science等顶刊的最新论文,追踪复杂系统、网络科学、计算社会科学等领域的前沿进展。现在正式推出订阅功能,每周通过微信服务号「集智斑图」推送论文信息。扫描下方二维码即可一键订阅:



推荐阅读



点击“阅读原文”,追踪复杂科学顶刊论文

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存